Световни новини без цензура!
Как ще бъде регулиран изкуственият интелект?
Снимка: ft.com
Financial Times | 2024-06-05 | 16:36:10

Как ще бъде регулиран изкуственият интелект?

Регулаторите по света не са разкрили дефицит на проблеми, за които да се тормозят с възхода на изкуствения разсъдък.

Трябва ли да се намесят в логаритми, които биха могли да предубедят или изкривят решенията които засягат всекидневието на милиарди? Какво ще кажете за риска чатботове, като ChatGPT, да ускорят производството на онлайн дезинформация или да доведат до корист с големи количества персонални данни? И какво би трябвало да създадат с предизвестията, че компютрите скоро могат да доближат такова равнище на просветеност, че да избягат от контрола на основателите си – с евентуално ужасни последствия за човечеството?

Технологията се движи толкоз бързо, че има към момента има малко единодушие по регулаторен дневен ред, макар че фокусът от двете страни на Атлантическия океан от ден на ден пада върху най-мощните системи с изкуствен интелект с общо предопределение. Разработени от компании като OpenAI, Гугъл и Anthropic и известни като фундаментални модели, тези системи поддържат необятен набор от приложения от разнообразни компании, което им дава необятно влияние върху обществото и стопанската система.

Кои проблеми с ИИ преглеждат първо регулаторите?

Европейският съюз беше на път да завърши първия си - самобитен Закон за изкуствения разсъдък, който би направлявал или даже забранявал хипотетичните „ високорискови “ използва на изкуствен интелект – като взимане на решения за кандидатстване за работа или заем или здравни процедури. Тогава манията по ChatGPT избухна - големият публичен интерес към свободно наличния генериращ AI чатбот на OpenAI.

Законодателите бързо коригираха проектите си, определяйки нови правила, които ще принудят фирмите да разкрият върху какви модели за учредяване на данни като този, употребен в ChatGPT, са били подготвени. Създателите на най-мощните модели, за които Брюксел счита, че могат да съставляват систематични опасности, са изправени пред спомагателни условия, като оценка и намаляване на рисковете в своите модели и докладване на всевъзможни съществени произшествия. Законът, който беше признат през май 2024 година и стартира да влиза в действие година по-късно, също по този начин сътвори мощна нова работа за изкуствен интелект, натоварена с определянето на стандартите, на които би трябвало да дават отговор модерните системи с изкуствен интелект.

Технологично контролиране на ЕСЕвропейските компании бият паника за план на закон за изкуствения разсъдък

Въпреки това, Патрик Ван Ике, съпредседател на световната процедура за киберпространството, данните и поверителността на адвокатската адвокатска фирма Cooley, счита, че Брюксел е пристъпил прекомерно рано, с цел да се опита да контролира технология, която към момента е „ движеща се цел “, отразявайки културни пристрастия към контролиране на колене. „ Ние обичаме да контролираме действителността даже преди да е станала действителност “, споделя той – повтаряйки мироглед, необятно публикуван в света на ИИ.

Много софтуерни ръководители в Съединени американски щати имат друго пояснение. Те виждат бързината на Брюксел да контролира непосредствено най-мощните AI системи като тенденциозен протекционистичен ход от страна на Европейски Съюз, налагащ ограничавания на група най-вече американски компании, които преобладават в AI промишлеността.

Ще се трансфорат ли регулациите на Европейски Съюз в AI в модел за останалия свят?

Това се случи със законодателството на блока за отбрана на данните и това е евентуално развиване, за което се тормозят американските софтуерни компании по отношение на. Поддръжниците на Закона за Европейски Съюз споделят, че той ще се ползва гъвкаво, с цел да отразява изменящите се стандарти и софтуерния прогрес. Но критиците споделят, че опитът демонстрира, че Брюксел възприема по-догматичен метод - и че разпоредбите, въведени в този момент, могат да лимитират еволюцията на технологията.

Изкуствен интелектКитай ще дефинира правила за ИИ с акцент върху контрола на наличието

Някои европейски компании са съгласни. В писмо до Европейската комисия през 2023 година 150 огромни европейски концерна предизвестиха, че законът може да попречи на стопанската система на блока, като попречи на фирмите там да употребяват свободно значими AI технологии.

Каква е алтернативата на метода на Европейски Съюз?

Преди да вземете решение по отношение на новите закони, доста страни преглеждат деликатно по какъв начин техните съществуващи разпореждания се ползват за приложения, които се зареждат от AI.

Производителят на изкуствен интелект ChatGPT е разследван от американските регулатори за опасности от AI

В Съединени американски щати, да вземем за пример, Федералната комерсиална комисия стартира следствие на ChatGPT, употребявайки съществуващите си пълномощия. Едно от терзанията му е, че ChatGPT изсмуква персонални данни и от време на време ги употребява, с цел да връща погрешна и нездравословна информация за елементарни хора. Американските законодатели също започнаха необятен обзор на AI, който категорично се пробва да балансира изгодите от технологията против евентуалните й вреди.

Лидерът на болшинството в Сената на Съединени американски щати Чък Шумър прикани за поредност от експертни брифинги и конгреси за най-важните комисии на Сената, с цел да им помогне да решат кои аспекти на ИИ може да се нуждаят от контролиране.

Холи Фехнер, съпредседател на групата за софтуерна промишленост в адвокатската адвокатска фирма Covington & Burling, сподели: „ Значително двупартийно отношение в Конгрес за конкуренцията на Съединени американски щати с Китай ” прави метода на Шумър „ печелившо обръщение – и алармира, че Съединени американски щати се движат в друга посока от тази на Европа. ”

Въпреки това, сходно на Брюксел, Вашингтон също стартира да постанова условия на най-мощните модели декор дьо загар. В изпълнителна заповед, призната в края на 2023 година, Белият дом на Байдън изисква от фирмите, които основават мощни системи с двойна приложимост – т.е. такива, които също имат евентуална военна приложимост – да разкрият опциите на своите системи пред чиновници, като в същото време предизвикват способи за дефинират стандарти и насоки за това по какъв начин такива модели се образоват, тестват и следят. Макар и по-малко непоколебим от новия закон на Европейски Съюз, заповедта беше първият повсеместен опит в Съединени американски щати за справяне с изкуствения разсъдък.

Ако държавните управления не контролират в този момент, ще завоюва Няма ли конкуренцията с изкуствен интелект да се трансформира в рискова независимост за всички?

Много софтуерни компании споделят, че развиването на изкуствения разсъдък би трябвало да отразява ранните дни на интернет: тогава регулаторите се въздържаха, оставяйки нововъведенията да процъфтяват и единствено се намеси по-късно, в случай че е належащо.

Вече има признаци, че новите индустриални стандарти и съглашения по отношение на най-хубавите практики в AI стартират да се постановат, даже без категорично контролиране. В Съединени американски щати, да вземем за пример, промишлеността работи с Националния институт за стандарти и технологии за кодифициране на най-хубавите способи за планиране, образование и внедряване на AI системи. По гледище на Белия дом група от водещи компании за изкуствен интелект подписаха предходната година набор от доброволни задължения.

Въпреки това критиците предизвестяват, че стартира приток на капитали в промишлеността на изкуствения разсъдък и скок в оценките за изкуствен интелект -ups докара до безотговорно развиване на технологията, без значение от рисковете. В един от най-ясните признаци на напрежението, което това сътвори в софтуерните компании, Сам Алтман, основен изпълнителен шеф на OpenAI, беше уволнен от борда на компанията през 2023 година заради терзания за неговото управление, преди протест измежду личния състав, който му разреши да бъде възобновен пет дни по-късно. Други, които предупреждаваха за заплахите от стремглава експедитивност в ИИ – като Илон Мъск – също наподобява загърбиха терзанията си и се причислиха към конкуренцията.

Някои хората, разработващи AI, споделят, че може да унищожи човечеството - това не е ли причина за неотложно контролиране?

Никой в ​​технологичната промишленост не счита, че днешните системи с AI съставляват екзистенциална опасност за човечеството и няма единодушие по кое време - в случай че въобще — технологията може да доближи тази точка. Но предходната година отворено писмо, подписано от доста технолози, прикани за шестмесечен мораториум върху работата по най-модерните системи, с цел да се даде време да се измислят нови протоколи за сигурност.

Въпреки че държавните управления започнаха да обмислят това проблем, ще са нужни нови интернационалните съглашения, с цел да се опитаме да направляваме разпространяването на рисков ИИ. Дори тогава сходни старания може да се окажат непрактични, като се има поради необятната наличност на изчислителните запаси и наборите от данни, нужни за образование на AI системи.

Засега същите компании, които водят отговорността за AI, настояват, че също са в челните редици, пробвайки се да го овладее. OpenAI съобщи в средата на 2023 година, че основава вътрешен екип, който да стартира да изследва способи за надзор на „ суперинтелигентни “ компютри, което счита, че може да се появи през това десетилетие. Но по-малко от година по-късно екипът се разпусна – и един от хората, които го ръководеха, упрекна компанията, че се интересува повече от основаването на „ лъскави артикули “, в сравнение с от основаването на същинска просвета към сигурността на ИИ.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!